-
1 automatic parallelization
автоматическое распараллеливание [программы]общий термин для совокупности методов компиляции программы, позволяющих сделать её исполняемой на параллельных (многопроцессорных) системах, т. е., например, превратить последовательный код в многопотоковый или векторизованный (или даже комбинированный). Благодаря автоматическому распараллеливанию программисты освобождаются от необходимости выполнять эту трудоёмкую и чреватую ошибками работу вручную.Syn:Англо-русский толковый словарь терминов и сокращений по ВТ, Интернету и программированию. > automatic parallelization
-
2 automatic vectorization
в программировании - преобразование, производимое обычно во время компиляции, линейной последовательности операций, выполняемых одна за другой, поочерёдно, в параллельный код, для одновременного выполнения операции сразу над несколькими данными, как это делает векторный процессорАнгло-русский толковый словарь терминов и сокращений по ВТ, Интернету и программированию. > automatic vectorization
-
3 compiler optimization
один из этапов компиляции, на котором с помощью методов оптимизации происходит преобразование программы, сохраняющее её семантику, но уменьшающее размер кода и/или время выполнения. Как правило, уменьшение размера кода увеличивает время выполнения, и наоборот. Поскольку ручная оптимизация программы стоит дорого и занимает много времени, а программисты, работающие на ЯВУ, обычно не знают тонкостей архитектуры конкретного целевого процессора, то сейчас кроме редких случаев используется оптимизация при компиляции, когда компилятор автоматически выбирает наиболее эффективный способ оптимизации и детали реализации в соответствии с заданным уровнем оптимизациисм. тж. antidependence, branch deletion, automatic parallelization, constant folding, constant propagation, control dependence, copy propagation, CSE, data dependence, dead statement, expression folding, fission by name, global forward substitution, GVN, hand optimization, intermediate representation, interprocedural optimization, jump threading, lazy evaluation, induction variable, instruction scheduling, instruction selection, local optimization, loop collapsing, loop invariant code motion, loop inversion, loop parallelization, loop optimization, loop peeling, loop skewing, loop splitting, loop tiling, loop transformation, loop unrolling, loop unrolling and jamming, loop unswitching, loop unwinding, loop vectorization, LNO, optimization, optimization technique, optimizing compiler, output dependence, partial evaluation, peephole optimization, polytope model, PRE, redundant-test elimination, register allocation, register spilling, scalar replacement, SSA, static analysis, strength reduction, strip mining, test promotion, trace scheduling, true dependence, two-version loop, vectorizationАнгло-русский толковый словарь терминов и сокращений по ВТ, Интернету и программированию. > compiler optimization
-
4 paralleling
использование многих устройств одновременно для однотипных операций; например, распределение потока команд между процессорами для одновременного исполненияАнгло-русский толковый словарь терминов и сокращений по ВТ, Интернету и программированию. > paralleling
-
5 vectorized code
векторизованный код [программы]код, полученный в результате либо автоматического распараллеливания (automatic parallelization) либо векторизации (vectorization)Англо-русский толковый словарь терминов и сокращений по ВТ, Интернету и программированию. > vectorized code
См. также в других словарях:
Automatic parallelization — Automatic parallelization, also auto parallelization, autoparallelization, parallelization, or //ization (shorthand), the last two of which imply automation when used in context, refers to converting sequential code into multi threaded or… … Wikipedia
Parallel computing — Programming paradigms Agent oriented Automata based Component based Flow based Pipelined Concatenative Concurrent computing … Wikipedia
Sieve C++ Parallel Programming System — The Sieve C++ Parallel Programming System is a C++ compiler and parallel runtime designed and released by Codeplay that aims to simplify the parallelization of code so that it may run efficiently on multi processor or multi core systems. It is an … Wikipedia
Compiler optimization — is the process of tuning the output of a compiler to minimize or maximize some attributes of an executable computer program. The most common requirement is to minimize the time taken to execute a program; a less common one is to minimize the… … Wikipedia
Loop optimization — In compiler theory, loop optimization plays an important role in improving cache performance, making effective use of parallel processing capabilities, and reducing overheads associated with executing loops. Most execution time of a scientific… … Wikipedia
Parallel programming model — A parallel programming model is a set of software technologies to express parallel algorithms and match applications with the underlying parallel systems. It encloses the areas of applications, programming languages, compilers, libraries,… … Wikipedia
OpenFOAM — Developer(s) OpenCFD Ltd. Initial release 10 December 2004 Stable release 2.0.1 / 4 August 2011 Operating system Unix/Linux … Wikipedia
Normalized loop — In computer science, a normalized loop (sometimes called well behaved loop), is a loop which the loop variable starts at 0 (or any constant) and get incremented by one at every iteration until the exit condition is met. Normalized loops are very… … Wikipedia
Compiler — This article is about the computing term. For the anime, see Compiler (anime). A diagram of the operation of a typical multi language, multi target compiler A compiler is a computer program (or set of programs) that transforms source code written … Wikipedia
GNU Compiler Collection — Cc1 redirects here. For other uses of CC1 or CC 1, see CC1 (disambiguation). GNU Compiler Collection Developer(s) GNU Project Initial release May 23, 1987 ( … Wikipedia
Dominator (graph theory) — For Dominating set problem, see Dominating set. In computer science, in control flow graphs, a node d dominates a node n if every path from the start node to n must go through d. Notationally, this is written as d dom n (or sometimes d n). By… … Wikipedia